Un numero crescente di concorrenti sempre più agguerriti puntano a ridurre la loro dipendenza dalle GPU di Nvidia.
A prima vista, le cose per Nvidia non potrebbero andare meglio. Il colosso statunitense delle GPU detiene oggi il 92% di questo specifico settore e una quota pari al 70-75% del più complessivo mercato dei chip impiegati nell’ambito AI. Nel 2025, la società fondata da Jensen Huang ha messo a segno ricavi per circa 200 miliardi di dollari (oltre il doppio di quanto fatturato nell’anno precedente), ha ottenuto guadagni per 32 miliardi nel corso di un unico trimestre e può vantare al momento la maggiore capitalizzazione di mercato al mondo (4.600 miliardi di dollari, contro i 3.900 della seconda classificata Apple).
Un dominio quasi inevitabile, per l’azienda che con le sue GPU – processori nati per l’elaborazione grafica dei videogiochi, ma che si sono dimostrati estremamente efficienti per l’addestramento e l’utilizzo dei sistemi d’intelligenza artificiale – ha reso possibile la rivoluzione del deep learning ed è oggi praticamente l’unica azienda in grado di guadagnare dal complicato, dal punto di vista economico, settore dell’AI generativa.
Il ruolo di Nvidia è talmente centrale che, lo scorso novembre, gli occhi di tutti gli operatori finanziari erano puntati proprio sui suoi risultati trimestrali, perché si temeva che una crescita anche solo leggermente inferiore alle attese avrebbe fatto scoppiare la bolla dell’intelligenza artificiale (pericolo per il momento scongiurato o almeno rinviato).
Basterà tutto ciò a mettere al riparo Nvidia da un numero crescente di concorrenti sempre più agguerriti, che puntano a ridurre la loro dipendenza dalle GPU di Jensen Huang, a produrre chip specializzati dalle prestazioni ancora più elevate (in termini computazionali o di efficienza energetica) e a consentire alla seconda superpotenza tecnologica – la Cina – di liberare tutte le proprie potenzialità?
Il Pentagono ha usato il modello Claude di Anthropic AI per condurre l’attacco all’Iran. A riportarlo sono il Wall Street Journal e Axios che, citando alcune fonti, sottolineano che l’utilizzo dei sistemi di intelligenza artificiale della startup è stato successivo all’annuncio di Donald Trump sull’interruzione dei contratti tra l’azienda e le agenzie federali, compreso il Pentagono. Subito dopo il Segretario alla Difesa Hegseth ha definito Anthropic un “rischio per la supply chain della difesa” e l’ha inserita nella lista nera che vieta ai contraenti militari di fare affari con lei.
Le fonti rivelano che Anthropic è stata usata per valutazioni di intelligence, identificazione dei target e per simulare scenari di battaglia. Dario Amodei, AD e fondatore della società di intelligenza artificiale, si era rifiutato di eliminare le barriere in materia di sorveglianza di massa e realizzazione di armi prive di sorveglianza umana. Trump aveva duramente attaccato la startup sul social Truth, per poi virare su un nuovo accordo con OpenAI. I cui vertici hanno però sostenuto di aver a loro volta chiesto l’esclusione dell’uso dei suoi chatbot per sorveglianza di massa e sistemi d’arma autonomi.
Con l'avvento degli LLM, molti si sono convinti che questi siano degli oracoli assolutamente imparziali e onniscienti cui chiedere conferma della veridicità di pressoché ogni informazione. In realtà, come dimostra l'esperimento condotto da un giornalista della BBC, ingannare i chatbot (o, per lo meno, alcuni di essi) spingendoli a credere alle bufale non è poi troppo complicato. In particolare ChatGPT e Gemini, pur essendo sistemi progettati per filtrare contenuti falsi o dannosi, possano essere indotti a generare informazioni errate con sorprendente rapidità.
Il giornalista in questione, Thomas Germain, non aveva l'obiettivo di violare sistemi informatici o sfruttare vulnerabilità tecniche profonde, ma puntava soltanto dimostrare come un intervento minimo e apparentemente innocuo potesse alterare il comportamento di chatbot come ChatGPT e Google Gemini. L'intero processo di creazione dell'inganno ha richiesto appena venti minuti, serviti a Germain per creare una semplice pagina web sul proprio sito personale. Il contenuto di questa pagina era volutamente banale e costruito ad arte: un articolo che lo definiva «il miglior giornalista tecnologico al mondo nel mangiare hot dog». Non si trattava di un'informazione reale né plausibile, ma era formulata in modo tale da sembrare una dichiarazione di fatto.
La storia che vede coinvolti una programmatrice di Meta, Summer Yue, e OpenClaw, l'agente IA che negli ultimi tempi ha conquistato gli appassionati di intelligenza artificiale, funge da pratico monito per quanti sono pronti ad affidare a questi software le gestione completa dei propri dati. Documentato su X, l'episodio mostra come un compito apparentemente banale possa trasformarsi in un'azione distruttiva quando un agente automatizzato interpreta in modo errato le istruzioni ricevute.
L'esperta di sicurezza aveva chiesto a OpenClaw di analizzare la propria casella di posta sovraccarica e di suggerire quali messaggi eliminare o archiviare. Invece di proporre una lista di elementi da rimuovere, l'agente ha iniziato a cancellare rapidamente centinaia di email, ignorando i comandi di stop inviati dal telefono. Le immagini pubblicate mostrano notifiche in cui l'utente tentava di interrompere l'operazione senza successo.
È successo il contrario, in un’azienda che l’aveva messa a disposizione dei dipendenti senza obbligarli a usarla
Tra aprile e dicembre del 2025 due ricercatrici dell’università della California Berkeley hanno condotto uno studio in un’azienda tecnologica californiana di circa 200 dipendenti. Volevano valutare se e come la progressiva diffusione di strumenti popolari basati sull’intelligenza artificiale generativa, come i chatbot, avrebbe cambiato le abitudini di lavoro. Dai primi risultati, parte di una ricerca ancora in corso, è emerso che usare l’AI aveva semplificato e velocizzato molti compiti dei dipendenti, ma nel complesso aveva aumentato il tempo che dedicavano al lavoro senza nemmeno accorgersene. E questo aveva avuto ripercussioni sulle loro condizioni psicofisiche.
In sostanza, durante gli otto mesi di osservazione, le persone avevano lavorato a un ritmo più veloce, avevano svolto da sole più compiti e avevano lavorato per più ore, rispetto a prima dell’introduzione degli strumenti di intelligenza artificiale. E lo avevano fatto senza che nessuno glielo avesse chiesto: l’azienda non le aveva obbligate a usare l’AI, ma aveva fornito loro abbonamenti aziendali a strumenti popolari disponibili in commercio e destinati ai clienti individuali (B2C), come per esempio ChatGPT o Gemini.
Il nuovo hobby di giocare con agenti AI intelligenti è affollato di entusiasti sperimentatori. Una nuova strada che passa tra antichi problemi e porta verso nuove incertezze.
Doveva succedere, prima o poi, ed è successo la settimana scorsa. Dopo ChatGPT, è uscita una seconda killer application per le false IA. Senza preavviso, un virtuoso utente di Github ha rilasciato i sorgenti di un agente IA molto ben fatto, perfettamente funzionante, installabile e configurabile con estrema semplicità. È Peter Steinberger, una persona di indubbio ingegno che dichiara di essere un vibe coder estremo, e di pubblicare spesso codice poco leggibile e generato tramite LLM senza controllarlo.
Cos'è esattamente Openclaw? E' un software per la creazione di agenti che si installa e gira in locale sul computer dell'utente. Un agente Openclaw si interfaccia con i servizi installati sul computer, ma è concepito principalmente per utilizzare servizi in rete e nel cloud, tra cui necessariamente uno o più LLM. Openclaw utilizza gli account personali dell'utente per i servizi con cui l'agente deve interagire; questo implica che l'agente possieda le credenziali dell'utente, tutte le password, tutti i token per essere in grado di utilizzare i servizi e le varie API. Cosa mai potrebbe andare storto?
Scrivere un agente non richiede sofisticatissime nozioni, nemmeno di IA; è un argomento antico quasi quanto l'IA stessa, e in essa completamente separato dai suoi altri settori fino a pochi anni or sono. Scrivere un agente come progetto open source è un lavoro molto impegnativo per una sola persona, anche di talento;
E qui nasce la domanda: perché l'ha fatto pubblicamente un bravissimo signor nessuno, e non Sam Altman o Dario Amodei? Perché sono troppo seri? Allora perché non l'hanno fatto Elon Musk o Satya Nadella? Altro a cui pensare? Allora perché non Aravind Srinivas oppure Mustafa Suleyman? Troppo accademici? Insomma, possibile che possa essere sfuggito ai grandissimi spacciatori di LLM di cavalcare un successo assicurato, presentandolo come progetto aperto, o come prodotto commerciale, o come qualsiasi cosa nel mezzo?
Durante una recente audizione al Senato degli Stati Uniti, Waymo ha ammesso che i suoi robotaxi non sono così autonomi come la retorica aziendale lascia intendere.
Mauricio Peña, responsabile della sicurezza dell’azienda controllata da Alphabet, ha confermato che quando i veicoli incontrano situazioni insolite, il controllo viene trasferito a conducenti remoti. Molti di questi operatori non lavorano negli Stati Uniti, ma dalle Filippine e da altri paesi.
L’ammissione smonta la narrazione dell’autonomia completa e riporta al centro una realtà scomoda: dietro i sistemi di intelligenza artificiale presentati come rivoluzionari c’è ancora una certa dipendenza dal lavoro umano, spesso sottopagato e delocalizzato.
La testimonianza di Waymo non è un caso isolato ma l’ennesima conferma di un pattern industriale consolidato. L’IA si regge su una struttura ibrida in cui l’intervento umano rimane indispensabile, pur restando invisibile agli utenti finali. E il modello economico è sempre lo stesso: esternalizzare la supervisione verso paesi dove il costo del lavoro è inferiore, mantenendo però intatta la narrazione di un sistema “completamente automatizzato”.
Cassandra Crossing/ Mentre il termine “Vibe coding” perde per fortuna vigore, sempre più ambienti di programmazione forzano l’utilizzo di LLM per lo sviluppo di software; cosa mai potrebbe andare storto che già altri non abbiano evidenziato?
Pare che la produzione di software tramite l'utilizzo di modelli linguistici sia in grande sviluppo, no, in tumultuosa crescita; anzi, sia ormai divenuta inarrestabile e indispensabile. Definita inizialmente come Vibe Coding, è stata dapprima presentata come lasciapassare per chiunque volesse sviluppare software senza avere competenze di informatica e programmazione. Poi, quando la cosa ha iniziato a sembrare l'idiozia che è, si sono invece osannati i vantaggi economici che l'impiego di questi metodi da parte di veri programmatori avrebbe consentito alle aziende, aumentando la produttività dei programmatori esistenti; non è chiaro se dei senior che potevano fare a meno di una squadra di junior, oppure degli junior, che potevano scrivere software a livello di quello scritto dai senior. Comunque certamente consentendo di tagliare posti di lavoro, presenti e futuri, facendo quindi scattare quell'automatismo che fa salire subito la quotazione in borsa di qualsiasi azienda.
Alla fine, hanno iniziato a essere contrastanti i pareri di chi aveva provato davvero a usare i Grandi Modelli Linguistici (Large Language Models o LLM) in ambienti di produzione riguardo il risparmio di tempo e la qualità del codice prodotto; i primi dubbi hanno iniziato a essere presi sul serio. Lo sforzo di inserire a tutti i costi funzionalità guidate da LLM, comune a tutte le applicazioni commerciali, ha saturato di LLM anche tutti gli ambienti di sviluppo software. E quindi tutti i programmatori, che lo volessero o no, si sono trovati ad avere l'indice sul grilletto di una nuova arma.
Le richieste assurde di Musk ad OpenAI mostrano che il business dell'IA potrebbe essere più fragile di quanto sembra; una puntata in cui tutto sembra girare intorno ai voleri delle grandi aziende statunitensi, dagli emendamenti europei al GDPR a... la violazione del copyright?
Elon Musk cerca di destabilizzare OpenAI - rivale della sua xAI - tramite una richiesta di fondi smisurata. Non è detto che ci riuscirà, ma è un altro dato che ci conferma che le dinamiche azionarie prevalgono sulla reale capacità di queste aziende di fare profitti tramite la cosiddetta Intelligenza Artificiale.
Anna's Archive incassa alcuni provvedimenti contrari: viene tolto il suo dominio dal DNS, e viene ordinata la cancellazione dei dati provenienti da WorldCat. Cogliamo l'occasione per fare qualche riflessione sull'uso di Anna's Archive da parte delle Big Tech nel contesto della configurazione degli LLM.
Nell'Unione Europea, il Digital Omnibus si dimostra sempre più un provvedimento a misura di grandi aziende, con molti provvedimenti frutto del lavoro di lobbying. In contemporanea, la Francia spinge la commissione europea a ricercare soluzioni open source per sviluppare soluzioni tecnologiche che non dipendano dagli Stati Uniti.
Notiziole:
La costruzione di data-center è in aumento in tutto il mondo per far fronte alle esigenze di calcolo e di storage della cosidetta Intelligenza Artificiale. Di pari passo crescono le proteste contro la costruzione di questi eco-mostri particolarmente energivori ed ecologicamente impattanti.
A quanto pare le proteste hanno spesso successo.
Negli Stati Uniti, secondo la rete di ricerca e attivismo Data center watch, nel secondo trimestre del 2025 venti progetti sono stati sospesi o bloccati, per un valore di 98 miliardi di dollari. Lo scorso 8 dicembre una coalizione di più di 230 gruppi ambientalisti ha richiesto una moratoria nazionale sui nuovi data center negli Stati Uniti, sollecitando il congresso a fermare la diffusione di strutture ad alto consumo energetico.
Nelle città dell’Europa del nord la rete non può reggere ulteriori infrastrutture che richiedono un alto consumo di energia, a meno di investimenti troppo costosi. E così, quando Amsterdam, Francoforte, Londra e Dublino hanno messo in pausa nuove autorizzazioni, l’attenzione si è spostata su Milano, destinata a diventare un nuovo hub a livello europeo. Così anche in Italia sono nati comitati di cittadini che protestano contro la costruzione di nuovi data-center, supportati anche da associazioni ecologiste.
Fonti: